Logo

Tìm kiếm: Bộ nhớ HBM

Micron chính thức tăng giá bộ nhớ, dự báo đắt đỏ đến năm 2026
Micron chính thức tăng giá bộ nhớ, dự báo đắt đỏ đến năm 2026

Micron vừa xác nhận kế hoạch tăng giá bộ nhớ, lý do là nhu cầu DRAM và NAND Flash đang tăng mạnh trong những năm tới. Hãng dự báo giá sẽ tiếp tục leo thang trong năm 2025 và 2026 do nguồn cung hạn chế, trong khi nhu cầu từ các lĩnh vực như trí tuệ nhân tạo (AI), trung tâm dữ liệu và điện tử tiêu dùng ngày càng lớn.

Tác giả: Huyền Ngọc Huyền Ngọc
460
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA

Meta đang có những bước tiến lớn trong việc tự chủ về phần cứng, cụ thể là chip AI. Sau nhiều năm phát triển chip RISC-V cho tác vụ suy luận AI (AI inference) nhằm cắt giảm chi phí và giảm sự phụ thuộc vào NVIDIA, Meta đã tiến thêm một bước: thiết kế chip tăng tốc AI riêng cho quá trình huấn luyện mô hình (AI training).

Tác giả: Linh Hương Linh Hương
632
NVIDIA hé lộ tương lai GPU: Blackwell Ultra, Rubin và
NVIDIA hé lộ tương lai GPU: Blackwell Ultra, Rubin và "cú nhấp chuột" bí ẩn phía sau!

NVIDIA đang rục rịch mang đến những đột phá mới cho thế giới GPU, đặc biệt là trong lĩnh vực trí tuệ nhân tạo và điện toán hiệu năng cao. Dù gặp một chút trục trặc nhỏ với thiết kế ban đầu của GPU Blackwell cho trung tâm dữ liệu năm ngoái, NVIDIA vẫn đang tăng tốc cho ra mắt những sản phẩm mạnh mẽ hơn.

Tác giả: Linh Hương Linh Hương
714
OpenAI Thiết Kế Chip AI Riêng, Thách Thức NVIDIA
OpenAI Thiết Kế Chip AI Riêng, Thách Thức NVIDIA

OpenAI đang ráo riết hoàn thiện thiết kế chip AI riêng và dự kiến giao cho TSMC sản xuất hàng loạt vào năm 2026. Bước đi này cho thấy OpenAI không muốn tụt hậu so với các đối thủ lớn như Google, Meta và Microsoft trong cuộc đua giảm chi phí vận hành AI.

Tác giả: Linh Hương Linh Hương
831
Cụm Siêu Máy Tính 144 GPU NVIDIA H200 Đầu Tiên Ra Mắt: Sức Mạnh Vượt Trội Và Khả Năng Cho Thuê
Cụm Siêu Máy Tính 144 GPU NVIDIA H200 Đầu Tiên Ra Mắt: Sức Mạnh Vượt Trội Và Khả Năng Cho Thuê

Gần đây, một cụm siêu máy tính cực kỳ ấn tượng đã chính thức đi vào hoạt động, đó là ExaCluster của ExaaiLabs, được trang bị tới 144 GPU NVIDIA H200. Điều đặc biệt, đây là một trong những cụm máy đầu tiên trên thế giới sử dụng dòng GPU mạnh mẽ này. Hydra Host, công ty đóng vai trò quan trọng trong việc xây dựng hệ thống, đã cung cấp thêm nhiều thông tin chi tiết về siêu máy tính này.

Tác giả: Mai Ngọc Mai Ngọc
952
Siêu máy tính Aurora chính thức hoạt động, mở ra kỷ nguyên mới cho nghiên cứu khoa học
Siêu máy tính Aurora chính thức hoạt động, mở ra kỷ nguyên mới cho nghiên cứu khoa học

Phòng thí nghiệm quốc gia Argonne vừa công bố siêu máy tính Aurora đã chính thức đi vào hoạt động và sẵn sàng phục vụ cộng đồng khoa học. Được công bố từ năm 2015, dự án này đã trải qua nhiều lần trì hoãn, nhưng giờ đây, Aurora đã đạt hiệu năng ấn tượng, với hơn 1 exaflop cho các mô phỏng và 11.6 exaflop cho các ứng dụng trí tuệ nhân tạo và học máy.

Tác giả: Hương Trang Hương Trang
1845
NVIDIA Chuyển Sang Công Nghệ Đóng Gói Chip Tiên Tiến cho Blackwell
NVIDIA Chuyển Sang Công Nghệ Đóng Gói Chip Tiên Tiến cho Blackwell

NVIDIA đang tăng tốc sản xuất các sản phẩm dòng Blackwell sử dụng nhiều chiplet. Trong đó, hãng sẽ ưu tiên sử dụng công nghệ đóng gói COWOS-L tiên tiến hơn, thay vì COWOS-S. Thông tin này được chính CEO Jensen Huang xác nhận tại một sự kiện ở Đài Loan.

Tác giả: Huyền Diễm Huyền Diễm
774
Nhu cầu chip Blackwell đa nhân của NVIDIA tăng cao, chip đơn nhân bị
Nhu cầu chip Blackwell đa nhân của NVIDIA tăng cao, chip đơn nhân bị "bỏ rơi"

Gã khổng lồ sản xuất GPU NVIDIA đang chứng kiến nhu cầu cực lớn đối với các thiết kế chip Blackwell đa nhân tiên tiến của mình, vượt xa so với các chip đơn nhân cấp thấp hơn. Theo nhà phân tích Ming-Chi Kuo từ TF International Securities, NVIDIA đã điều chỉnh lộ trình kiến trúc Blackwell để ưu tiên các thiết kế đa nhân sử dụng công nghệ đóng gói Cowos-L.

Tác giả: Phong Lâm Phong Lâm
1286
NVIDIA Blackwell B300: Siêu Chip AI Thế Hệ Mới - 50% Hiệu Suất Cao Hơn!
NVIDIA Blackwell B300: Siêu Chip AI Thế Hệ Mới - 50% Hiệu Suất Cao Hơn!

Hôm nay, chúng ta cùng khám phá một bước tiến vượt bậc trong lĩnh vực AI: NVIDIA Blackwell B300!

Tác giả: Kiên Đăng Kiên Đăng
1068
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
3338
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
3246
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
3297
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
3331
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
3186
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2976
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
3915
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
3407
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
3346
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
2539
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
2158
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
3149
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
3000
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3210
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
3495
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
3675
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
2074
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
3607
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
3067
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
2171
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
2147
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: Bộ nhớ HBM

Micron chính thức tăng giá bộ nhớ, dự báo đắt đỏ đến năm 2026
Micron chính thức tăng giá bộ nhớ, dự báo đắt đỏ đến năm 2026

Micron vừa xác nhận kế hoạch tăng giá bộ nhớ, lý do là nhu cầu DRAM và NAND Flash đang tăng mạnh trong những năm tới. Hãng dự báo giá sẽ tiếp tục leo thang trong năm 2025 và 2026 do nguồn cung hạn chế, trong khi nhu cầu từ các lĩnh vực như trí tuệ nhân tạo (AI), trung tâm dữ liệu và điện tử tiêu dùng ngày càng lớn.

Tác giả: Huyền Ngọc Huyền Ngọc
460
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA
Meta Phát Triển Chip AI Riêng, Giảm Phụ Thuộc NVIDIA

Meta đang có những bước tiến lớn trong việc tự chủ về phần cứng, cụ thể là chip AI. Sau nhiều năm phát triển chip RISC-V cho tác vụ suy luận AI (AI inference) nhằm cắt giảm chi phí và giảm sự phụ thuộc vào NVIDIA, Meta đã tiến thêm một bước: thiết kế chip tăng tốc AI riêng cho quá trình huấn luyện mô hình (AI training).

Tác giả: Linh Hương Linh Hương
632
NVIDIA hé lộ tương lai GPU: Blackwell Ultra, Rubin và
NVIDIA hé lộ tương lai GPU: Blackwell Ultra, Rubin và "cú nhấp chuột" bí ẩn phía sau!

NVIDIA đang rục rịch mang đến những đột phá mới cho thế giới GPU, đặc biệt là trong lĩnh vực trí tuệ nhân tạo và điện toán hiệu năng cao. Dù gặp một chút trục trặc nhỏ với thiết kế ban đầu của GPU Blackwell cho trung tâm dữ liệu năm ngoái, NVIDIA vẫn đang tăng tốc cho ra mắt những sản phẩm mạnh mẽ hơn.

Tác giả: Linh Hương Linh Hương
714
OpenAI Thiết Kế Chip AI Riêng, Thách Thức NVIDIA
OpenAI Thiết Kế Chip AI Riêng, Thách Thức NVIDIA

OpenAI đang ráo riết hoàn thiện thiết kế chip AI riêng và dự kiến giao cho TSMC sản xuất hàng loạt vào năm 2026. Bước đi này cho thấy OpenAI không muốn tụt hậu so với các đối thủ lớn như Google, Meta và Microsoft trong cuộc đua giảm chi phí vận hành AI.

Tác giả: Linh Hương Linh Hương
831
Cụm Siêu Máy Tính 144 GPU NVIDIA H200 Đầu Tiên Ra Mắt: Sức Mạnh Vượt Trội Và Khả Năng Cho Thuê
Cụm Siêu Máy Tính 144 GPU NVIDIA H200 Đầu Tiên Ra Mắt: Sức Mạnh Vượt Trội Và Khả Năng Cho Thuê

Gần đây, một cụm siêu máy tính cực kỳ ấn tượng đã chính thức đi vào hoạt động, đó là ExaCluster của ExaaiLabs, được trang bị tới 144 GPU NVIDIA H200. Điều đặc biệt, đây là một trong những cụm máy đầu tiên trên thế giới sử dụng dòng GPU mạnh mẽ này. Hydra Host, công ty đóng vai trò quan trọng trong việc xây dựng hệ thống, đã cung cấp thêm nhiều thông tin chi tiết về siêu máy tính này.

Tác giả: Mai Ngọc Mai Ngọc
952
Siêu máy tính Aurora chính thức hoạt động, mở ra kỷ nguyên mới cho nghiên cứu khoa học
Siêu máy tính Aurora chính thức hoạt động, mở ra kỷ nguyên mới cho nghiên cứu khoa học

Phòng thí nghiệm quốc gia Argonne vừa công bố siêu máy tính Aurora đã chính thức đi vào hoạt động và sẵn sàng phục vụ cộng đồng khoa học. Được công bố từ năm 2015, dự án này đã trải qua nhiều lần trì hoãn, nhưng giờ đây, Aurora đã đạt hiệu năng ấn tượng, với hơn 1 exaflop cho các mô phỏng và 11.6 exaflop cho các ứng dụng trí tuệ nhân tạo và học máy.

Tác giả: Hương Trang Hương Trang
1845
NVIDIA Chuyển Sang Công Nghệ Đóng Gói Chip Tiên Tiến cho Blackwell
NVIDIA Chuyển Sang Công Nghệ Đóng Gói Chip Tiên Tiến cho Blackwell

NVIDIA đang tăng tốc sản xuất các sản phẩm dòng Blackwell sử dụng nhiều chiplet. Trong đó, hãng sẽ ưu tiên sử dụng công nghệ đóng gói COWOS-L tiên tiến hơn, thay vì COWOS-S. Thông tin này được chính CEO Jensen Huang xác nhận tại một sự kiện ở Đài Loan.

Tác giả: Huyền Diễm Huyền Diễm
774
Nhu cầu chip Blackwell đa nhân của NVIDIA tăng cao, chip đơn nhân bị
Nhu cầu chip Blackwell đa nhân của NVIDIA tăng cao, chip đơn nhân bị "bỏ rơi"

Gã khổng lồ sản xuất GPU NVIDIA đang chứng kiến nhu cầu cực lớn đối với các thiết kế chip Blackwell đa nhân tiên tiến của mình, vượt xa so với các chip đơn nhân cấp thấp hơn. Theo nhà phân tích Ming-Chi Kuo từ TF International Securities, NVIDIA đã điều chỉnh lộ trình kiến trúc Blackwell để ưu tiên các thiết kế đa nhân sử dụng công nghệ đóng gói Cowos-L.

Tác giả: Phong Lâm Phong Lâm
1286
NVIDIA Blackwell B300: Siêu Chip AI Thế Hệ Mới - 50% Hiệu Suất Cao Hơn!
NVIDIA Blackwell B300: Siêu Chip AI Thế Hệ Mới - 50% Hiệu Suất Cao Hơn!

Hôm nay, chúng ta cùng khám phá một bước tiến vượt bậc trong lĩnh vực AI: NVIDIA Blackwell B300!

Tác giả: Kiên Đăng Kiên Đăng
1068
NVIDIA GeForce RTX 50
NVIDIA GeForce RTX 50 "Blackwell": GPU thế hệ tiếp theo mang đến hiệu năng và hiệu quả cao hơn

NVIDIA đang chuẩn bị cho các GPU thế hệ tiếp theo của mình, GeForce RTX 50 "Blackwell", và những rò rỉ mới nhất cho thấy chúng sẽ được trang bị công nghệ tiên tiến. Theo các nguồn tin đáng tin cậy, GPU Blackwell sẽ được xây dựng trên tiến trình 3nm của TSMC, mang lại những cải tiến đáng kể về hiệu quả năng lượng, hiệu suất và mật độ bóng bán dẫn.

Tác giả: Diễm Phương Diễm Phương
3338
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá
AMD Instinct MI300X và MI300A: Cỗ máy tăng tốc AI thế hệ tiếp theo, hiệu suất đột phá

AMD đang chuẩn bị ra mắt dòng tăng tốc Instinct MI300 thế hệ tiếp theo vào tháng tới, hứa hẹn sẽ mang đến hiệu suất đột phá cho các ứng dụng AI và HPC. Dòng sản phẩm mới này bao gồm hai phiên bản: MI300X, được thiết kế dành riêng cho các ứng dụng AI chuyên dụng, và MI300A, kết hợp GPU và CPU để mang đến sự cân bằng giữa hiệu suất và tính linh hoạt.

Tác giả: Tuấn Anh Tuấn Anh
3246
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC
Samsung Tạo Ra Giải Pháp Đóng Gói Chip Của Riêng Mình Để Đối Đầu Với Cowos Của TSMC

Samsung đang chuẩn bị giải pháp đóng gói chip tiên tiến của riêng mình để cạnh tranh với công nghệ đóng gói Cowos (chip-on-wafer-on-substrate) phổ biến rộng rãi của TSMC. Samsung dự định công bố giải pháp của mình vào năm tới và sẽ gọi nó là SAINT hoặc Samsung Advanced Interconnection Technology. SAINT sẽ được sử dụng để tạo ra nhiều giải pháp đóng gói khác nhau, bao gồm:

Tác giả: Kiên Đăng Kiên Đăng
3297
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA
Jupiter: Siêu máy tính Exaflop đầu tiên của châu Âu được trang bị siêu chip Grace Hopper GH200 của NVIDIA

Jupiter là siêu máy tính Exaflop đầu tiên của châu Âu, được trang bị siêu chip Grace Hopper GH200 của NVIDIA. Siêu máy tính này có thể được sử dụng cho cả mô phỏng và khối lượng công việc AI, điều này khác biệt với phần lớn các siêu máy tính được cài đặt ngày nay. Ngoài ra, NVIDIA cho biết GH200 của họ cung cấp năng lượng cho 40 siêu máy tính trên toàn thế giới và hiệu suất kết hợp của chúng là khoảng 200 exaflop 'AI'.

Tác giả: Mai Ngọc Mai Ngọc
3331
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo
NVIDIA H200 và GH200: Siêu chip AI thế hệ tiếp theo

NVIDIA đã công bố các siêu chip thế hệ tiếp theo H200 và GH200, được thiết kế để cung cấp sức mạnh cho tương lai của siêu tính toán AI. Những chip mới này dựa trên kiến trúc Hopper H100 hiện có, mang lại những cải tiến đáng kể về dung lượng và băng thông bộ nhớ. H200 có 141GB bộ nhớ HBM3e, cung cấp băng thông tổng cộng 4,8TB/s cho mỗi GPU, trong khi GH200 kết hợp GPU H200 với CPU Grace, cung cấp tổng dung lượng bộ nhớ 624GB cho mỗi siêu chip.

Tác giả: Kiên Đăng Kiên Đăng
3186
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt
TSMC tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu tăng vọt

TSMC, nhà sản xuất chip theo hợp đồng lớn nhất thế giới, sẽ tăng cường sản xuất chip-on-wafer-on-substrate (CoWoS) để đáp ứng nhu cầu ngày càng tăng từ các khách hàng lớn như NVIDIA, Apple, AMD, Broadcom và Marvell. Theo báo cáo của UDN, TSMC sẽ tăng mục tiêu sản xuất CoWoS hàng tháng của năm tới lên 20%, tương đương 35.000 wafer mỗi tháng.

Tác giả: Kiên Đăng Kiên Đăng
2976
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt
Nvidia và các đối tác sẵn sàng bán GPU A800 ở Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt

Có dấu hiệu cho thấy Nvidia và các đối tác đang chuẩn bị tiếp thị GPU A800 cho Bắc Mỹ, Mỹ Latinh, Châu Âu, Châu Phi, Ấn Độ và Nhật Bản do các lệnh trừng phạt của Mỹ đối với Trung Quốc ngày càng khốc liệt. A800 của Nvidia là một GPU kiến trúc Ampere được thiết kế để tuân thủ các lệnh trừng phạt của Mỹ thông qua việc sử dụng bộ tính năng được cắt giảm. Tuy nhiên, do các lệnh trừng phạt đã được tăng cường trong những tuần gần đây, nên CPU này không thể được bán trên thị trường Trung Quốc nữa.

Tác giả: Huyền Ngọc Huyền Ngọc
3915
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3
Samsung và SK hynix chạy đua giành vị thế thống trị HBM3

Hai công ty Hàn Quốc, Samsung và SK hynix, đang trong một cuộc đua "nghiêm túc" để giành vị thế thống trị HBM3, khi cả hai đều chứng kiến sự gia tăng mạnh mẽ các đơn đặt hàng từ ngành AI. Zdnet Korea đưa tin rằng Samsung và SK hynix hiện đang dẫn đầu trong lĩnh vực sản xuất và cung cấp HBM cho các khách hàng toàn cầu bao gồm AMD và Nvidia.

Tác giả: Phương Linh Phương Linh
3407
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super
Nvidia có thể đang chuẩn bị cho ra mắt card đồ họa bí ẩn GeForce RTX 4080 Super

Nvidia gần đây đã thêm 10de:2703 (nvidia_dev.2703), một mục được mô tả là GeForce RTX 4080 Super vào trình điều khiển thử nghiệm R515, như được stefang3d từ LaptopVideo2Go phát hiện. Sản phẩm được cho là dựa trên bộ xử lý đồ họa AD103 của Nvidia, mặc dù không rõ liệu GPU có đi kèm với tất cả 10.240 lõi CUDA của nó được kích hoạt, giữ lại 9.728 lõi CUDA của GeForce RTX 4080 nhưng sử dụng xung nhịp cao hơn hay có cấu hình khác.

Tác giả: Diễm Phương Diễm Phương
3346
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao
NVIDIA Đẩy nhanh việc ra mắt GPU Blackwell B100 sang Quý 2 năm 2024 do nhu cầu AI tăng cao

Theo báo cáo từ hãng truyền thông Hàn Quốc MT.co.kr, NVIDIA được cho là đã dời kế hoạch ra mắt GPU Blackwell B100 thế hệ tiếp theo từ quý 4 sang quý 2 năm 2024 do nhu cầu AI tăng cao đột biến. Công ty cũng dự kiến sẽ sử dụng bộ nhớ DRAM HBM3e từ SK Hynix cho các chip mới nhất của mình.

Tác giả: Minh Quân Minh Quân
2539
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025
Samsung dự kiến ra mắt bộ nhớ HBM4 vào năm 2025

Samsung đã tiết lộ rằng họ dự kiến ra mắt bộ nhớ HBM4 vào năm 2025. Bộ nhớ mới sẽ có giao diện 2048-bit trên mỗi ngăn xếp, gấp đôi so với 1024-bit của HBM3.

Tác giả: Phương Anh Phương Anh
2158
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025
Samsung Electronics công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025

Samsung Electronics đã công bố kế hoạch sản xuất hàng loạt bộ nhớ HBM4 vào năm 2025, nhằm đa dạng hóa dịch vụ sản xuất để đáp ứng nhu cầu của ngành. Sang Joon Hwang, giám đốc nhóm sản phẩm và công nghệ DRAM tại Samsung Electronics, đã tiết lộ sự phát triển này trong một bài đăng trên blog tại phòng tin tức của Samsung, cho biết rằng công ty có kế hoạch nâng cao bộ phận nhớ của mình.

Tác giả: Mai Ngọc Mai Ngọc
3149
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu
Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu

Fujitsu đang phát triển bộ vi xử lý thế hệ tiếp theo cho AI, HPC và trung tâm dữ liệu, có tên gọi Monaka. Bộ vi xử lý này được cho là sẽ có hiệu năng mạnh mẽ với 150 lõi Armv9 được cải tiến và khả năng sử dụng các bộ tăng tốc. Là một trong những bộ vi xử lý trung tâm dữ liệu 2nm đầu tiên, Monaka dự kiến sẽ ra mắt vào năm tài chính 2027, bắt đầu từ ngày 1 tháng 4 năm 2026 và kết thúc vào ngày 31 tháng 3 năm 2027.

Tác giả: Phương Linh Phương Linh
3000
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
3210
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất
Micron ra mắt bộ nhớ HBM3 Gen2 thế hệ tiếp theo, NVIDIA khen ngợi hiệu năng và hiệu suất

Micron đã bắt đầu gửi mẫu bộ nhớ HBM3 Gen2 thế hệ tiếp theo của mình cho khách hàng, bao gồm NVIDIA, những người đã khen ngợi hiệu năng và hiệu suất của nó. Trong cuộc gọi thu nhập vào thứ Tư, Micron dự đoán khoản lỗ "lớn hơn" trong quý tới do nhu cầu giảm từ thị trường bộ nhớ tiêu dùng. Tuy nhiên, Micron cũng tiết lộ rằng công ty đã hợp tác chặt chẽ với NVIDIA và bộ nhớ HBM3 Gen2 băng thông cao của họ dự kiến sẽ ra mắt trong các GPU AI và HPC sắp tới của Team Green trong nửa đầu năm 2024.

Tác giả: Diễm Phương Diễm Phương
3495
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
3675
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit
HBM4: Tăng gấp đôi băng thông với giao diện 2048 bit

Bộ nhớ băng thông cao (HBM) đã đi một chặng đường dài trong vòng chưa đầy 10 năm có mặt trên thị trường. Nó đã tăng đáng kể tốc độ truyền dữ liệu của mình, tăng dung lượng theo cấp số nhân và đạt được vô số tính năng. Có một thay đổi lớn khác sắp xảy ra và lần này sẽ rất lớn: các stack bộ nhớ HBM thế hệ tiếp theo sẽ có giao diện bộ nhớ 2048 bit, theo báo cáo của DigiTimes trích dẫn Seoul Economy.

Tác giả: Huy Hoàng Huy Hoàng
2074
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
3607
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)
TSMC thừa nhận thiếu hụt chip GPU do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS)

Chủ tịch TSMC thừa nhận rằng nguồn cung chip GPU tính toán cho các ứng dụng trí tuệ nhân tạo (AI) và điện toán hiệu suất cao (HPC) hiện đang thiếu do hạn chế về năng lực đóng gói chip-on-wafer-on-substrate (CoWoS). Tình trạng thiếu hụt này dự kiến ​​sẽ tiếp tục trong khoảng 18 tháng do nhu cầu ngày càng tăng đối với các ứng dụng AI tổng hợp và tốc độ mở rộng năng lực CoWoS của TSMC tương đối chậm.

Tác giả: Huy Hoàng Huy Hoàng
3067
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM
Lệnh trừng phạt Mỹ thúc đẩy Trung Quốc phát triển bộ nhớ HBM

Trung Quốc đang nỗ lực phát triển bộ nhớ có băng thông cao (giống HBM) cho các ứng dụng trí tuệ nhân tạo và điện toán hiệu suất cao, theo báo cáo của South China Morning Post. ChangXin Memory Technologies (CXMT) được cho là đi đầu trong sáng kiến này.

Tác giả: Huy Hoàng Huy Hoàng
2171
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM
AI bùng nổ: NVIDIA và Meta mở rộng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

NVIDIA và Meta có kế hoạch tăng tốc phát triển GenAI thông qua việc mở rộng nhanh chóng trung tâm dữ liệu, yêu cầu SK hynix cung cấp thêm DRAM

Tác giả: Huy Hoàng Huy Hoàng
2147
Chọn trang